Telegram Group & Telegram Channel
Глубокое обучение, как зеркало сложных систем

«Никто не понимает, как работает глубокое обучение / нейронные сети / большие языковые модели» — слышали эту фразу? не смущает ли она вас? В нескольких постах разбираемся, что известно, а что нет.

В жизни нас окружает много сложных систем, поведение которых в будущем не может быть точно смоделировано (computationally irreducible complexity)  — наш мозг, иммунная система, финансовые рынки, климатические и экологические системы, социальные группы и многое другое. Иногда не хватает информации о начальных условиях, иногда для моделирования требуются невероятные вычислительные мощности, а иногда это даже теоретически невозможно (хаос, привет).

В отсутствии понимания внутренних правил системы, бывают накоплены наблюдения за ней — например, анамнез людей с травмами разных частей головы, показания погоды за несколько лет, журналы родильных домов по всему региону или сборник медицинских учебников. Вместе с наблюдениями иногда сформирована интуиция — пациенты с повреждениями левой фронтальной части мозга чаще других теряют способность говорить, вокруг Рождества особенно морозно, больше всего детей рождается летом, а подорожник быстрее заживляет раны. Корреляции не всегда верные, но достаточно устойчивые чтобы закрепиться как «житейская мудрость».

Большие нейронные сети (neural networks, NN) — сложные системы, состоящие из десятков миллиардов нейронов и выполняющие сотни миллионов операций с числами в секунду. В момент создания это полностью детерминированные объекты, магия начинается только после их “обучения”, во время которого сети показывают примеры другой сложной системы, например, текста. Если данных много (а chatGPT обучен на корпусе из ~ста миллиардов страниц текста), они высокого качества (литературы и научных статей больше, чем твиттера), и достаточно разнообразны (представлены разные языки, национальности, гендеры, политические взгляды), глядя на них нейронная сеть «обучится» хорошо и скопирует внутренние взаимосвязи построив свою собственную интуицию.

После обучения вся информация или “знания” NN распределённо хранятся в этих миллиардах нейронов, и хотя система не перестает быть строго детерминированной (каждое из чисел известно точно), из-за огромного количества их интерпретация сильно усложняется и становится похожа на исследование нашего мозга. Он тоже состоит из десятков миллиардов нейронов, правда иной природы. За всю историю развития нейронауки ученые объединили скопления нейронов в отделы, установили за какие функции они отвечают, но где именно рождается та или иная мысль в большинстве случаев неизвестно, а что такое сознание неизвестно вовсе.

В случае с текстом обучение, очевидно, работает. Современные большие языковые модели успешно построили собственные интуиции для человеческих языков. Является ли это “пониманием” написанного, и можно ли на таких механизмах построить “сознание”, это отдельный разговор, который в основном сводится к определению терминов. Но совершенно точно это является пониманием математической закономерности языка, скрытой от нашей человеческой интуиции. Наш мозг выполняет операции над образами а не числами, но удивительным образом эти два подхода приводят к очень близким результатам.

Вот и получается что одно сложное, которое вы контролируете полностью, имитирует поведение другого сложного, за которым наблюдало достаточно много раз. И несмотря на очень поверхностные наше представления о том, как именно это происходит, это сложное решает прикладные задачи и усложняется дальше. С другой стороны, человек довольно долго и успешно существовал совсем не понимая, как работает собственный мозг. Это должно обнадеживать

1. Визуальная демонстрация того как нейронные сети учатся
2. Что известно об устройстве GPT-4

#AI #DL #LLM #complexity



tg-me.com/levels_of_abstraction/19
Create:
Last Update:

Глубокое обучение, как зеркало сложных систем

«Никто не понимает, как работает глубокое обучение / нейронные сети / большие языковые модели» — слышали эту фразу? не смущает ли она вас? В нескольких постах разбираемся, что известно, а что нет.

В жизни нас окружает много сложных систем, поведение которых в будущем не может быть точно смоделировано (computationally irreducible complexity)  — наш мозг, иммунная система, финансовые рынки, климатические и экологические системы, социальные группы и многое другое. Иногда не хватает информации о начальных условиях, иногда для моделирования требуются невероятные вычислительные мощности, а иногда это даже теоретически невозможно (хаос, привет).

В отсутствии понимания внутренних правил системы, бывают накоплены наблюдения за ней — например, анамнез людей с травмами разных частей головы, показания погоды за несколько лет, журналы родильных домов по всему региону или сборник медицинских учебников. Вместе с наблюдениями иногда сформирована интуиция — пациенты с повреждениями левой фронтальной части мозга чаще других теряют способность говорить, вокруг Рождества особенно морозно, больше всего детей рождается летом, а подорожник быстрее заживляет раны. Корреляции не всегда верные, но достаточно устойчивые чтобы закрепиться как «житейская мудрость».

Большие нейронные сети (neural networks, NN) — сложные системы, состоящие из десятков миллиардов нейронов и выполняющие сотни миллионов операций с числами в секунду. В момент создания это полностью детерминированные объекты, магия начинается только после их “обучения”, во время которого сети показывают примеры другой сложной системы, например, текста. Если данных много (а chatGPT обучен на корпусе из ~ста миллиардов страниц текста), они высокого качества (литературы и научных статей больше, чем твиттера), и достаточно разнообразны (представлены разные языки, национальности, гендеры, политические взгляды), глядя на них нейронная сеть «обучится» хорошо и скопирует внутренние взаимосвязи построив свою собственную интуицию.

После обучения вся информация или “знания” NN распределённо хранятся в этих миллиардах нейронов, и хотя система не перестает быть строго детерминированной (каждое из чисел известно точно), из-за огромного количества их интерпретация сильно усложняется и становится похожа на исследование нашего мозга. Он тоже состоит из десятков миллиардов нейронов, правда иной природы. За всю историю развития нейронауки ученые объединили скопления нейронов в отделы, установили за какие функции они отвечают, но где именно рождается та или иная мысль в большинстве случаев неизвестно, а что такое сознание неизвестно вовсе.

В случае с текстом обучение, очевидно, работает. Современные большие языковые модели успешно построили собственные интуиции для человеческих языков. Является ли это “пониманием” написанного, и можно ли на таких механизмах построить “сознание”, это отдельный разговор, который в основном сводится к определению терминов. Но совершенно точно это является пониманием математической закономерности языка, скрытой от нашей человеческой интуиции. Наш мозг выполняет операции над образами а не числами, но удивительным образом эти два подхода приводят к очень близким результатам.

Вот и получается что одно сложное, которое вы контролируете полностью, имитирует поведение другого сложного, за которым наблюдало достаточно много раз. И несмотря на очень поверхностные наше представления о том, как именно это происходит, это сложное решает прикладные задачи и усложняется дальше. С другой стороны, человек довольно долго и успешно существовал совсем не понимая, как работает собственный мозг. Это должно обнадеживать

1. Визуальная демонстрация того как нейронные сети учатся
2. Что известно об устройстве GPT-4

#AI #DL #LLM #complexity

BY уровни абстракции


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/levels_of_abstraction/19

View MORE
Open in Telegram


LEVELS_OF_ABSTRACTION Telegram Group Telegram | DID YOU KNOW?

Date: |

Start with a fresh view of investing strategy. The combination of risks and fads this quarter looks to be topping. That means the future is ready to move in.Likely, there will not be a wholesale shift. Company actions will aim to benefit from economic growth, inflationary pressures and a return of market-determined interest rates. In turn, all of that should drive the stock market and investment returns higher.

How Does Bitcoin Work?

Bitcoin is built on a distributed digital record called a blockchain. As the name implies, blockchain is a linked body of data, made up of units called blocks that contain information about each and every transaction, including date and time, total value, buyer and seller, and a unique identifying code for each exchange. Entries are strung together in chronological order, creating a digital chain of blocks. “Once a block is added to the blockchain, it becomes accessible to anyone who wishes to view it, acting as a public ledger of cryptocurrency transactions,” says Stacey Harris, consultant for Pelicoin, a network of cryptocurrency ATMs. Blockchain is decentralized, which means it’s not controlled by any one organization. “It’s like a Google Doc that anyone can work on,” says Buchi Okoro, CEO and co-founder of African cryptocurrency exchange Quidax. “Nobody owns it, but anyone who has a link can contribute to it. And as different people update it, your copy also gets updated.”

LEVELS_OF_ABSTRACTION Telegram Group from ye


Telegram уровни абстракции
FROM USA